Световни новини без цензура!
OpenAI дразни „Sora“, своя нов AI модел за текст към видео
Снимка: nbcnews.com
NBC News | 2024-02-15 | 00:36:34

OpenAI дразни „Sora“, своя нов AI модел за текст към видео

Искате ли да видите костенурка, караща колело през океана? Сега генеративният изкуствен интелект може да анимира тази сцена за секунди.

OpenAI в четвъртък представи новия си модел за текст към видео Sora, който може да генерира видеоклипове с дължина до една минута въз основа на каквато и да е подкана потребителят въвежда в текстово поле. Въпреки че все още не е достъпно за обществеността, съобщението на компанията за изкуствен интелект предизвика бурни реакции онлайн.

Ентусиастите по изкуствен интелект бързо обмислиха идеи за потенциала на тази най-нова технология, дори когато други повдигнаха непосредствена загриженост за това как неговата достъпност може да подкопае човешките работни места и да допринесе за разпространението на дигитална дезинформация.

Главният изпълнителен директор на OpenAI Сам Алтман поиска бързи идеи за X и генерира поредица от видеоклипове, включително гореспоменатите водни велосипедисти като както и видеоклип за готвене и няколко кучета, излъчващи подкастинг в планината.

"Скоро няма да направим този модел широко достъпен в нашите продукти", пише говорител на OpenAI в имейл, добавяйки, че компанията споделя напредъка си в изследванията сега, за да получи ранна обратна връзка от други в общността на AI.

Компанията, със своя популярен чатбот ChatGPT и генератор на текст към изображение DALL-E , е един от няколкото технологични стартиращи компании, водещи генеративната AI революция, започнала през 2022 г. В публикация в блог пише, че Sora може да генерира с точност множество знаци и различни типове движение.

„Ние учим AI да разбира и симулира физическия свят в движение, с цел обучение на модели, които помагат на хората да решават проблеми, които изискват взаимодействие в реалния свят“, пише OpenAI в публикацията.

Но Сора може да се затрудни да улови физиката или пространствените детайли на по-сложна сцена, което може да я накара да генерира нещо нелогично (като човек, тичащ в грешната посока на бягаща пътека), да преобразува обект по неестествени начини или дори да го причини да изчезнат от нищото, каза компанията в публикацията си в блога.

Все пак много от демонстрациите, споделени от OpenAI, показаха хиперреалистични визуални детайли, които биха могли да затруднят случайните интернет потребители за разграничаване на видео, генерирано от AI, от кадри от реалния живот. Примерите включват снимка с дрон на вълни, разбиващи се в скалистото крайбрежие на Биг Сур под блясъка на залязващото слънце и клип на жена, която се разхожда по оживена улица в Токио, все още влажна от дъжда.

As дълбоко фалшивите медии на знаменитости, политици и частни личности стават все по-разпространени онлайн, етичните и безопасни последици от един свят, в който всеки може да създава висококачествено видео на всичко, което може да си представи - особено по време на година на президентски избори и на фона на напрегнати глобални конфликти с възможности за дезинформация — са обезсърчителни.

Федералната търговска комисия в четвъртък предложи правила, насочени към забрана на създаването на AI впечатления на реални хора чрез разширяване на защитата, която поставя върху представянето на правителство и бизнес .

„Агенцията предприема това действие в светлината на нарастващите жалби във връзка с измами с представяне под чужда самоличност, както и обществено недоволство относно вредите, причинени на потребителите и на подставени лица“, пише FTC в съобщение за новини. „Нововъзникващите технологии – включително генерираните от AI deepfakes – заплашват да засилят този бич и FTC се ангажира да използва всички свои инструменти за откриване, възпиране и спиране на измами с представяне под чужда самоличност.“

OpenAI каза, че работи за изграждането на инструменти, които могат да открият кога видеоклипът е генериран от Sora, и планира да вгради метаданни, които биха маркирали произхода на видеоклипа, в такова съдържание, ако моделът бъде предоставен за обществено ползване в бъдеще.

Компанията също така каза, че си сътрудничи с експерти, за да тества Sora за способността й да причинява вреда чрез дезинформация, насаждащо омраза съдържание и пристрастия.

Говорител на OpenAI каза пред NBC News, че след това ще публикува системна карта, описваща оценките за безопасност, както и рисковете и ограниченията на модела.

„Въпреки задълбочените изследвания и тестове, ние не можем да предвидим всички полезни начини, по които хората ще използват нашата технология, нито всички начини, по които хората ще злоупотребяват с нея“, каза OpenAI в своя блог публикация. „Ето защо вярваме, че ученето от използването в реалния свят е критичен компонент за създаването и пускането на все по-безопасни AI системи с течение на времето.“

Анджела Янг

Източник: nbcnews.com


Свързани новини

Коментари

Топ новини

WorldNews

© Всички права запазени!